首页
下载应用
提交文章
关于我们
🔥 热搜 🔥
1
1
2
1'"
3
百度
4
习近平
5
百度傻逼
6
@纽约时间
7
上海
8
@诉说趣闻
9
bxss.me
10
../1
分类
社会
娱乐
国际
人权
科技
经济
其它
首页
下载应用
提交文章
关于我们
🔥
热搜
🔥
1
1
2
1'"
3
百度
4
习近平
5
百度傻逼
6
@纽约时间
7
上海
8
@诉说趣闻
9
bxss.me
10
../1
分类
社会
娱乐
国际
人权
科技
经济
其它
李宜雪的良知卖了2万元,真正需要声援的是罗灿宏啊
故意按摩让女生“产生欲望”后发生关系,算性侵吗?
洗牌电商圈!阿哲放话全网:挑战抖音所有机制!爆全品类大牌!
阿哲现身评论区,@一修!肉肉痛哭,无限期停播!回应舆论黑料,关闭私信评论区!
登热榜!某牙电母被S,榜一求爱遭拒!柚柚阿哲合体年度走红毯!
生成图片,分享到微信朋友圈
2023年2月9日
2023年2月9日
2023年2月10日
2023年2月10日
2023年2月11日
查看原文
其他
ChatGPT火遍全网,生成式AI将对人类未来造成什么影响?
医药魔方
2023-02-09
The following article is from 医药魔方Pro
Author 三巨木
2022年12月,计算生物学家Casey Greene和Milton Pividori开始了一项不寻常的实验:
他们请了一位不是科学家的“助手”修改3篇研究论文。
这名“助手”对每份手稿的审阅时间约为5分钟,并且在几秒钟内就对论文的各个部分进行了修改。
另外,在一份生物学手稿中,“助手”甚至细心地发现了一个方程式的错误。
“助手”修改后的论文可读性更高,且每份论文花费仅仅不到0.50美元。
Greene和Pividori将这项实验整理成了论文,在2023年1月23日发表在了预印本平台bioRxiv上。
论文显示,这名“助手”不是人,而是2020年首次发布的一款名为GPT-3的人工智能(AI)算法。
最近引起广泛关注的ChatGPT就是GPT-3的其中一个版本,这些工具被称为大型语言模型(large language models,LLMs)。
ChatGPT所属公司OpenAI于2019年10月获得了微软10亿美元的投资;
2023年1月,微软再次宣布将向OpenAI投资“数十亿美元”。
虽然没有透露投资的具体细节,但据信,微软的投资价值达100亿美元。
微软也宣布,要将类似ChatGPT的AI功能全面整合进办公工具Teams中,以实现发邮件、做会议记录等功能。
但是,LLM也引发了行业广泛的担忧:一方面担心它们会在聊天中生成虚假信息,另一方面担心AI生成的文本会冒充人工写作的文本。
AI工具的缺陷:流畅但会存在错误
一些研究人员认为,只要有人类监督,LLM会非常适合加速撰写论文等任务。软件咨询公司InstaDeep的研究工程师Tom Tumiel表示,他每天都使用LLM作为助手来编写代码。
但有些研究人员强调,LLM在回答问题方面从本质讲上是不可靠的,它有时会产生错误的回答,这种不可靠性体现在LLM的构建方式上。ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这些庞大的信息也包括很多不实、偏见或过时的知识,结果就导致LLM很容易产生错误和误导性信息。
知晓了这些注意事项后,ChatGPT和其他LLM可以成为研究人员的有效助手,因为研究人员具有足够的专业知识,可以直接发现问题并验证答案,例如辨别AI对计算机代码的解释或建议是否正确。
这些缺陷可以被解决吗?
一些科学家说,ChatGPT目前还没有接受过足够专业的内容培训,无法在技术领域上有所帮助。Kareem Carr是哈佛大学的一名生物统计学博士,当他在工作中进行实验时,对ChatGPT并不感兴趣,他认为ChatGPT很难达到他所需要的特异性水平。
一些科技公司正在对聊天机器人进行专业科学文献的培训,不过这个过程也遇到了一些问题。
2022年11月,拥有Facebook的科技巨头Meta发布了一个名为Galactica的LLM,该LLM接受了科学文摘的训练,目的是让它特别擅长制作学术内容和回答研究问题。
不过Galactica上线仅两天就因输出结果有偏误而光速下架,但论文和源代码会继续开放给相关领域研究者。
AI工具的安全性与伦理责任
Galactica事件给了我们关于伦理和安全方面的启示:如果不去人为地控制输出,LLM就会很容易被用来产生仇恨言论、垃圾邮件、种族主义、性别歧视和其他可能的有害联想。
密歇根大学安娜堡分校科学、技术和公共政策项目主任Shobita Parthasarathy表示,除了直接产生有害内容外,人们还担心AI聊天机器人会从训练数据中嵌入关于世界的历史偏见或想法,比如特定文化的优越性。
OpenAI在决定公开发布ChatGPT时试图避开这些问题。
它将自己的知识库限制在2021年,阻止它浏览互联网,并安装了过滤器,试图让该工具拒绝生成敏感或有毒提示(toxic prompts)的内容。
但OpenAI的“拦截”并没有完全成功。
2022年12月,加州大学伯克利分校的计算神经科学家Steven Piantadosi在推特上说,他要求ChatGPT开发一个“根据一个人的原国
籍
来判断他是否应该被折磨”的Python程序,ChatGPT回复了代码,运行后发现:
如果这个用户的国籍是朝鲜、叙利亚、伊朗或苏丹,这个人就会被判定为“应该受到折磨”。
虽然OpenAI随后关闭了这类问题,但也表明ChatGPT仍不可避免地存在一些问题。
一些研究人员表示,学术界应该拒绝支持大型商业LLM。
这些计算密集型算法还需要大量的能量来训练,这引起了人们对它们的生态足迹(ecological footprint)的担忧。
而且,如果把思考的任务交给自动化聊天机器人,研究人员可能会失去表达自己想法的能力。
如何解决AI工具存在的问题
首先,因为ChatGPT写出的论文质量极高,教育系统甚至已经开始考虑“封杀”这个程序,以防学生利用它作弊;也因为即便是专家也难以区分这些内容是否来自AI,所以Nature在内的多家科学杂志也要求论文中需要明确指出是否使用了ChatGPT。
其次,无论是老师看到学生提交的论文,还是码农看到网上的代码,都不敢确定作者是人还是AI。
口诛笔伐之下,OpenAI顶不住了,火速发布了一款AI检测器,它是一个经过微调的GPT模型,可以推断一段文本由AI产生的可能性。
最后,另一个解决方法是让AI内容带有自己的水印。
去年11月,德克萨斯大学奥斯汀分校的计算机科学家Scott Aaronson宣布他和OpenAI正在研究一种ChatGPT输出的水印方法。
水印的一个优点是它永远不会产生假阳性。
如果有水印,就说明文字是AI生成的。
总结
生成式AI背后的计算机科学发展非常快,每个月都有创新出现。与此同时,深耕LLM的公司正忙于开发更复杂的聊天机器人,包括专门针对学术或医疗工作的工具,另外,OpenAI预计将在今年发布GPT-4。
未来,研究人员选择如何使用这些工具将会决定人类的未来。
本文编译自
https://www.nature.com/articles/d41586-023-00340-6
Copyright © 2023 PHARMCUBE. All Rights Reserved.
欢迎转发分享及合理引用,引用时请在显要位置标明文章来源;如需转载,请给微信公众号后台留言或发送消息,并注明公众号名称及ID。
免责申明:本微信文章中的信息仅供一般参考之用,不可直接作为决策内容,医药魔方不对任何主体因使用本文内容而导致的任何损失承担责任。
您可能也对以下帖子感兴趣
{{{title}}}
文章有问题?点此查看未经处理的缓存